国内网络环境下Stable Diffusion1.2(AI绘图)本地部署教程
此时打开浏览器,在地址栏中输入刚刚cmd里的http地址,如果出现图形化界面则代表安装成功,这个地址就是程序的入口了,以后每次使用时先打开安装目录里的”webui-user.bat”,当cmd窗口出现这个地址时就可以去浏览器打开了
AI图像(AIGC for PIC)大模型实战|Stable Diffusion
Stable diffusion:V1.4/v1.5/v2.0/v2.1都是大模型,泛化性通用性好,大模型自带VAE模型,不额外挂在。那针对目前火爆的AImodel我们开始进行学习,尝试本地化部署,生成自己的模型。pruned:剪枝模型,存储小,效率搞,优化后的神经网络。什么时大模型/底模型,VAE
最新版本 Stable Diffusion 开源 AI 绘画工具之微调模型篇
学习不同的模型,让AI成为你的生产力
AI绘图实战(五):放大并修复老照片、马赛克照片、身份证件照 | Stable Diffusion成为设计师生产力工具
S:你安装stable diffusion就是为了看小姐姐么?I :当然不是,当然是为了公司的发展谋出路~~stable diffusion就只能小姐姐么?不,今天我们用stable diffusion修复老照片。原图为照片扫描:平时文生图时往往用高清修复来把图片放大,那么对于现有老照片用图生图模式
Linux Ubuntu22.04 安装stable diffusion webui(不借助科学上网的方式)
主要是因为从github上把sd webui拉下来之后,中间过程会从外网上下载很多模型文件、其他github上的项目,需要绕开这部分操作。把模型文件放到stable-diffusion-webui/models/stable-diffusion目录下,因为sd webui启动的时候会先预加载一个模型
使用Google Colab免费部署属于自己的Stable Diffusion模型在线服务
Stable Diffusion模型(稳定扩散模型)是一种用于生成式建模的深度学习模型,它使用随机微分方程(SDE)来建模连续时间的动态过程。在图像、声音、文本等各种领域都有广泛的应用。与传统的生成式模型相比,Stable Diffusion模型能够生成更加高质量的样本。其原理是通过对随机微分方程进
gocqhttp + chatgpt + stable diffusion实现AI聊天画图机器人
QQ机器人,实现AI智能回复和AI绘画功能
细数【SD-WEBUI】的模型:谁是最适合的模型&从哪里找到它们
神奇的模型在哪儿?谁才是最适合我的模型?村口大黄狗为何连夜嚎叫?……
Stable Diffusion Web UI + Anaconda环境 + 本地Windows系统部署
这里博主机器的cuda 是11.1版本,但按照之前的经验,在ananconda中安装cuda11.3是可以向下兼容的,原因其实很简单,anaconda可以做到环境隔离,即在创建好的环境中进行安装,不会影响其他程序或者模型的使用。
Windows环境下运行StableDiffusion常见问题
Windows环境下运行StableDiffusion常见问题
【NLP相关】AI绘画api集合
【NLP相关】AI绘画api集合。包括达摩院通义文生图大模型、「文心·一格」——基于百度文心大模型能力的AI艺术和倡议辅助平台、华为云 文字生成图片Stable Diffusion、midjourney、ERNIE-ViLG AI 作画大模型、智源研究院大模型研究团队开源的双语 AltDiffusi
stable diffusion error code:128 stdout:HEAD解决方案
使用 ‘–’ 来分隔版本和路径,例如:‘git <命令> [<版本>…] – [<文件>…]’
Stable Diffusion+ControlNet+Lora 指导AI+艺术设计的WebUI全流程使用教程
设计师们往往对于新出的绘画工具上手比较艰难,本文针对目前比较火热的Stable Diffusion+ControlNet指导AI艺术设计的工具使用进行全面讲解。很多人会有预感,未来要么设计师被图形学程序员取代,要么会使用AI工具的设计师取代传统设计师,2023年开始,AI辅助设计甚至主导设计已经成了
stable diffusion使用简明教程
一般来说大部分时候采样部署只需要保持在20~30之间即可,更低的采样部署可能会导致图片没有计算完全,更高的采样步数的细节收益也并不高,只有非常微弱的证据表明高步数可以小概率修复肢体错误,所以只有想要出一张穷尽细节可能的图的时候才会使用更高的步数。CFG很难去用语言去描述具体的作用,很笼统的来说,就是
万字长文解读Stable Diffusion的核心插件—ControlNet
ControlNet在大型预训练扩散模型(Stable Diffusion)的基础上实现了更多的输入条件,如边缘映射、分割映射和关键点等图片加上文字作为Prompt生成新的图片,同时也是stable-diffusion-webui的重要插件。ControlNet因为使用了冻结参数的Stable Di
零基础入门 Stable Diffusion - 无需显卡把 AI 绘画引擎搬进家用电脑
目前,Stable Diffusion 有 sygil、auto、auto-cpu 和 invoke 四个分支。如果需要更换分支,可以修改镜像构建命令中的[ui],将其替换为所需的镜像名即可。原先的hlky分支已经更名为sygillstein分支更名为invoke。sygil:界面直观,最高分辨率为
探索【Stable-Diffusion WEBUI】的附加功能:图片缩放&抠图
自从人工智能杀入,图片放大还清晰不再是梦想。也不再需要PhotoShop,PhotoZoom。但是我必须告诉女儿,《名侦探柯南》里面犯人从高架桥上拍摄火灾现场中镜子反光看到厨房里面手表,阿笠博士是不可能用电脑放大并指正嫌疑人的。因为必须使用人工智能才能清晰放大,但”脑补“的内容不算证据。(以后你自己
三分钟完成Stable Diffusion本地安装(零基础体验AI绘画)
最近AI绘画很火,很多无编程基础的小伙伴也想体验一下,所以写这篇博客来帮助小伙伴们愉快的体验一下~废话少说,我们直接开整!
Stable Diffusion Lora模型训练详细教程
stable diffusion lora模型训练
Stable Diffusion界面参数及模型使用
Stable Diffusion模型使用及界面参数简单介绍